KI-debatten må ned på bakken

Begrepet «kunstig intelligens» er mest egnet til forvirring

(Publisert i Aftenposten, 24. september 2023.)

IT-verden gir oss i blant ord som suger til seg så mye håp og frykt at de flyr avgårde som en løpsk varmluftsballong. Det kan ta årevis å fange et slikt ord og forankre det med konkret innhold.

"Internett" var en gang et slikt ord. Internett er framtiden, sa man. Det vil skape en informasjonsmotorvei, det vil demokratisere verden, det vil redde oss, eventuelt ødelegge oss. Alt vil bli annerledes med internett. Slik holdt vi på noen år før vi fikk fanget ordet og forankret det. Hva er internett? Et globalt nettverk. Enkelt og greit.

Senere fikk vi "skyen". Skyen er framtiden. Alt skal inn i skyen. Alle må ha en skystrategi, for dette vil endre alt, og så videre. Etterhvert fikk vi forankret dette ordet også. Hva er skyen? I bunn og grunn er det datamaskiner i store serverhaller. Ganske enkelt det og.

Veien til en konkret betydning kan imidlertid være lang. Mange har interesse av å blåse opp slike ord. Dessuten er det mer givende å fantasere stort enn å sette seg inn i små detaljer.

Fagfelt med et misvisende navn

I år er det "kunstig intelligens" som er temaet. KI er framtiden, alle trenger en KI-strategi, for dette vil enten redde oss eller ødelegge verden. Og så videre.

Daglig kan vi lese ting som at det foregår et kappløp mellom Kina og USA om å vinne "KI-kampen" og sikre verdensdominans innen helsetjenester, utdanning, våpenmakt og informasjonsflyt. KI kan også forbedre klimamodeller og optimalisere energiproduksjonen samtidig som det kan brukes til svindel og kriminalitet. Vi står på terskelen til en ny æra i skrivekunsten. KI vil kunne ta halvparten av jobbene våre, muligens fordi de allerede er smartere enn 99,3% av menneskene.

Hva dette konkret betyr, er ikke lett å forstå. Noen ganger viser KI til løsninger som finnes i dag, men som ikke er intelligente og gjør svært ulike ting på ulike måter. Andre ganger brukes det om hypotetiske systemer som kanskje aldri vil bli lagd. Når innholdet i et begrep spriker så mye som dette, er det noe galt med definisjonen.

Så hva er kunstig intelligens? Først og fremst er det et gammelt fagfelt med et misvisende navn. Som helhet har fagfeltet vært en skuffelse, fordi ordet "intelligens" antyder et løfte disse løsningene aldri har vært i nærheten av å innfri. Samtidig har ideer derfra blitt brukt til å lage IT-løsninger i flere tiår. Å si at "nå skal KI vurdere røntgenbilder" eller at "flere bedrifter burde bruke KI" er derfor forvirrende vagt. Oppfølgingsspørsmålet bør være, hvilke KI-baserte tilnærminger snakker vi om og hvordan skal de brukes?

Ekkoet av kunnskap

En mer presis beskrivele av for eksempel ChatGPT er at den bruker teknikker fra KI til å finne mønstre i enorme mengder tekst og generere ny tekst som stemmer overens med mønstrene. En viktig forskjell mellom dette og intelligens er at løsningen kun forholder seg til språkets form, ikke meningen som ligger bak. Det ligger ingen intensjon bak en tekst produsert av slike språkmodeller, bare ordmønstre.

Du kan ane et slags ekko av kunnskap i en slik tekst, men ikke kunnskap. Dette kan høres ut som flisespikkeri, men forskjellen er grunnleggende. En menneskelig skribent kan ta feil om mye men likevel forholde seg til virkeligheten. Syntetisk tekst tar ikke feil. Den "hallusinerer" ikke. Språkmodellen har ikke noe forhold til virkeligheten. Meningen du finner i en slik tekst kommer fra ditt eget hode, litt som en optisk illusjon.

Det er fullt mulig å bruke slike løsninger til noe nyttig. Selv har jeg testet ut Github Copilot, et programmeringsverktøy som følger med mens man skriver og kommer med forslag til neste kodelinje. Noen av forslagene er treffsikre, andre inneholder subtile feil. Jevnt over er den litt mer til hjelp enn til hinder. Hvor langt man kan forbedre en slik løsning, gjenstår å se. Det er også uavklart hvorvidt Microsoft og OpenAI har brutt lisensene til kildekoden de har trent den opp med.

Blindhet for andre fagfelt

Slike jordnære perspektiver havner i skyggen av den store debatten om hva KI-løsninger som ikke finnes, kan tenkes å gjøre en gang i framtiden. På den ene siden hører vi fra bransjespesialister som nok tror på det de gjør, men også har penger og prestisje å tjene på å peke på noe vagt og flott i framtiden. De har i blant en svak forståelse av andre fagfelt enn informatikk og bruker ord som "intelligens", "kunnskap", "kunst" og "etikk" uten å koble seg til hva eksperter på disse temaene sier om dem.

Den andre siden av debatten lider av den samme blindheten for andre fagfelt, men ser KI i et dystopisk lys. En viktig innflytelse her har vært miljøet rundt veldedighetsbevegelsen effektiv altruisme, hvor mange har fått deg for seg at de ustyrlige KI-ene vi kjenner fra science fiction en dag kan bli virkelige og at det viktigste vi som samfunn kan gjøre i dag er å ta kontroll over dem før de vokser seg for mektige. Litt som i Terminator-filmene, altså.

Denne tankegangen, longtermism, ("langsiktig politikk" på norsk), slo an i databransjen fordi vi IT-nerder liker science fiction og ikke er så rasjonelle som vi selv tror. Når for eksempel Elon Musk advarer mot trusselen fra kunstig intelligens, er det faktisk slike ideer som ligger bak.

Snakk mindre om KI

Det misvisende begrepet "kunstig intelligens" må ta sin del av skylden. Ved å legge det bort får vi lettere øye på det som er kritikkverdig i disse løsningene. Faren er ikke at KI overtar verden, men at syntetiske bøker overtar Amazon eller at politiet innfører "predictive policing"-systemer, la oss kalle det spåspaning på norsk, som utilsiktet straffer folk for å ha minoritetsbakgrunn. Faren er ikke at vi skaper en digital gud med bisarr etikk, men at illusjonen om maskiner som tenker, skader de som tror at de "snakker" med dem.

To viktige KI-kritikere som tar denne praktiske tilnærmingen, Emily M. Bender og Timnit Gebru, har blant annet påpekt at det enorme datagrunnlaget til språkmodeller som ChatGPT ikke bare er en styrke. Det er umulig å dokumentere dataene en så stor modell er trent opp med. Skjevheter og fordommer vil dermed forme den på uforutsigbare måter. Effekten kan ikke kompenseres for i etterkant, mener de. Problemet må løses med en mer beskjeden og gjennomtenkt bruk av opplæringsdata.

Fremover håper jeg å få høre mindre om "KI" og mer om datagrunnlaget for maskinlæringbaserte språkmodeller. Mindre om KI-strategier og mer om hvordan kulturlivet skal forholde seg til syntetisk tekst. Mindre framtidsfabulisme og mer om hvordan det offentlige kan automatisere beslutninger på en demokratisk måte. Inntil videre kan vi like godt unngå begrepet KI. De som vet hva de snakker om, har mer presise ord til rådighet.